اتصل بنا للحصول على مزيد من المعلومات

شفافية الذكاء الاصطناعي والحاجة إلى نماذج مفتوحة المصدر

قاده التفكير

شفافية الذكاء الاصطناعي والحاجة إلى نماذج مفتوحة المصدر

من أجل حماية الناس من الأضرار المحتملة للذكاء الاصطناعي ، يدافع بعض المنظمين في الولايات المتحدة والاتحاد الأوروبي بشكل متزايد عن ضوابط وضوابط وتوازنات على قوة نماذج الذكاء الاصطناعي مفتوحة المصدر. هذا مدفوع جزئيًا برغبة الشركات الكبرى في التحكم في تطوير الذكاء الاصطناعي وتشكيل تطوير الذكاء الاصطناعي بطريقة تفيدهم. يشعر المنظمون بالقلق أيضًا بشأن وتيرة تطوير الذكاء الاصطناعي ، حيث يشعرون بالقلق من أن الذكاء الاصطناعي يتطور بسرعة كبيرة جدًا وعدم وجود وقت كافٍ لوضع ضمانات لمنع استخدامه في أغراض ضارة.

ميثاق حقوق الذكاء الاصطناعي وإطار عمل إدارة مخاطر الذكاء الاصطناعي التابع للمعهد الوطني للمعايير والتكنولوجيا في الولايات المتحدة، إلى جانب قانون الاتحاد الأوروبي للذكاء الاصطناعي، تدعم العديد من المبادئ مثل الدقة والأمان وعدم التمييز والأمن والشفافية والمساءلة وقابلية التفسير والقابلية للتفسير وخصوصية البيانات. علاوة على ذلك ، يتوقع كل من الاتحاد الأوروبي والولايات المتحدة أن تلعب منظمات المعايير ، سواء كانت كيانات حكومية أو دولية ، دورًا حاسمًا في وضع مبادئ توجيهية للذكاء الاصطناعي.

في ضوء هذا الموقف ، من الضروري السعي نحو مستقبل يحتضن الشفافية والقدرة على فحص أنظمة الذكاء الاصطناعي ومراقبتها. سيمكن ذلك المطورين في جميع أنحاء العالم من فحص وتحليل وتحسين الذكاء الاصطناعي بدقة ، مع التركيز بشكل خاص على بيانات وعمليات التدريب.

لتحقيق الشفافية بنجاح في الذكاء الاصطناعي ، يجب أن نفهم خوارزميات اتخاذ القرار التي تدعمها ، وبالتالي نكشف عن نهج "الصندوق الأسود" للذكاء الاصطناعي. تلعب النماذج مفتوحة المصدر والقابلة للفحص دورًا أساسيًا في تحقيق هذا الهدف ، لأنها توفر الوصول إلى الكود الأساسي ، وبنية النظام ، وبيانات التدريب للتدقيق والتدقيق. هذا الانفتاح يعزز التعاون ، ويقود الابتكار ، ويحمي من الاحتكار.

لتشهد تحقيق هذه الرؤية ، من الضروري تسهيل تغييرات السياسة والمبادرات الشعبية وتشجيع المشاركة النشطة من جميع أصحاب المصلحة ، بما في ذلك المطورين والشركات والحكومات والجمهور.

الوضع الحالي للذكاء الاصطناعي: التركيز والتحكم

في الوقت الحاضر ، تطوير الذكاء الاصطناعي ، وخاصة فيما يتعلق نماذج اللغات الكبيرة (LLMs) ، مركزية في المقام الأول وتسيطر عليها الشركات الكبرى. يثير تركيز القوة هذا مخاوف بشأن احتمال إساءة الاستخدام ويطرح أسئلة حول الوصول العادل والتوزيع العادل للفوائد من التطورات في الذكاء الاصطناعي.

على وجه الخصوص ، تفتقر النماذج الشائعة مثل LLM إلى بدائل مفتوحة المصدر أثناء عملية التدريب بسبب موارد الحوسبة الشاملة المطلوبة ، والتي لا تتوفر عادةً إلا للشركات الكبيرة. ومع ذلك ، حتى لو ظل هذا الوضع على حاله ، فإن ضمان الشفافية فيما يتعلق ببيانات وعمليات التدريب أمر بالغ الأهمية لتسهيل التدقيق والمساءلة.

أدى تقديم OpenAI مؤخرًا لنظام ترخيص لأنواع معينة من الذكاء الاصطناعي إلى إثارة مخاوف ومخاوف بشأن الاستحواذ التنظيمي ، حيث يمكن أن يؤثر ليس فقط على مسار الذكاء الاصطناعي ، ولكن أيضًا على الجوانب الاجتماعية والاقتصادية والسياسية الأوسع.

الحاجة إلى ذكاء اصطناعي شفاف

تخيل أنك تعتمد على تقنية تتخذ قرارات مؤثرة بشأن الحياة البشرية / الشخصية ، لكنها لا تترك أثرًا في التنقل ، ولا فهم للأساس المنطقي وراء تلك الاستنتاجات. هذا هو المكان الذي تصبح فيه الشفافية لا غنى عنها.

أولاً وقبل كل شيء ، الشفافية أمر حاسم وتبني الثقة. عندما تصبح نماذج الذكاء الاصطناعي قابلة للملاحظة ، فإنها تغرس الثقة في موثوقيتها ودقتها. علاوة على ذلك ، فإن مثل هذه الشفافية ستجعل المطورين والمؤسسات أكثر عرضة للمساءلة عن نتائج خوارزمياتهم.

جانب آخر مهم للشفافية هو تحديد وتخفيف التحيز الخوارزمي. يمكن إدخال التحيز في نماذج الذكاء الاصطناعي بعدة طرق.

  • العنصر البشري: علماء البيانات عرضة لإدامة تحيزاتهم في النماذج.
  • التعلم الآلي: حتى لو تمكن العلماء من إنشاء ذكاء اصطناعي موضوعي بحت، فإن النماذج لا تزال عرضة للتحيز بدرجة كبيرة. يبدأ التعلم الآلي بمجموعة بيانات محددة، ولكن بعد ذلك يتم إطلاقه لاستيعاب البيانات الجديدة وإنشاء مسارات تعلم جديدة واستنتاجات جديدة. قد تكون هذه النتائج غير مقصودة أو متحيزة أو غير دقيقة، حيث يحاول النموذج التطور من تلقاء نفسه فيما يسمى "انجراف البيانات".

من المهم أن تكون على دراية بهذه المصادر المحتملة للتحيز حتى يمكن تحديدها والتخفيف من حدتها. تتمثل إحدى طرق تحديد التحيز في مراجعة البيانات المستخدمة لتدريب النموذج. يتضمن ذلك البحث عن الأنماط التي قد تشير إلى التمييز أو الظلم. هناك طريقة أخرى للتخفيف من التحيز وهي استخدام تقنيات إزالة الحواف. يمكن أن تساعد هذه التقنيات في إزالة أو تقليل التحيز من النموذج. من خلال الشفافية بشأن احتمال التحيز واتخاذ خطوات للتخفيف من ذلك ، يمكننا المساعدة في ضمان استخدام الذكاء الاصطناعي بطريقة عادلة ومسؤولة.

تمكّن نماذج الذكاء الاصطناعي الشفافة الباحثين والمستخدمين من فحص بيانات التدريب وتحديد التحيزات واتخاذ الإجراءات التصحيحية لمعالجتها. من خلال جعل عملية صنع القرار مرئية ، تساعدنا الشفافية في السعي لتحقيق العدالة ومنع انتشار الممارسات التمييزية. علاوة على ذلك ، هناك حاجة إلى الشفافية طوال عمر النموذج كما هو موضح أعلاه لمنع انحراف البيانات والتحيز وهلوسة الذكاء الاصطناعي التي تنتج معلومات خاطئة. تنتشر هذه الهلوسة بشكل خاص في نماذج اللغات الكبيرة ، ولكنها موجودة أيضًا في جميع أشكال منتجات الذكاء الاصطناعي. تلعب إمكانية المراقبة بالذكاء الاصطناعي أيضًا أدوارًا مهمة في ضمان أداء ودقة النماذج ، مما يؤدي إلى إنشاء ذكاء اصطناعي أكثر أمانًا وموثوقية وأقل عرضة للأخطاء أو العواقب غير المقصودة.

ومع ذلك ، فإن تحقيق الشفافية في الذكاء الاصطناعي لا يخلو من التحديات. من الضروري تحقيق توازن دقيق لمعالجة مخاوف مثل خصوصية البيانات والأمان والملكية الفكرية. يستلزم ذلك تنفيذ تقنيات الحفاظ على الخصوصية ، وإخفاء هوية البيانات الحساسة ، ووضع معايير وأنظمة صناعية تعزز ممارسات الشفافية المسؤولة.

جعل الذكاء الاصطناعي الشفاف حقيقة واقعة

يعد تطوير الأدوات والتقنيات التي يمكن أن تتيح إمكانية الفحص في الذكاء الاصطناعي أمرًا بالغ الأهمية لتعزيز الشفافية والمساءلة في نماذج الذكاء الاصطناعي.

بالإضافة إلى تطوير الأدوات والتقنيات التي تتيح إمكانية الفحص في الذكاء الاصطناعي ، يمكن للتطوير التكنولوجي أيضًا تعزيز الشفافية من خلال خلق ثقافة لها حول الذكاء الاصطناعي. يمكن أن يساعد أيضًا تشجيع الشركات والمؤسسات على التحلي بالشفافية بشأن استخدامها للذكاء الاصطناعي في بناء الثقة. من خلال تسهيل فحص نماذج الذكاء الاصطناعي ومن خلال خلق ثقافة الشفافية حول الذكاء الاصطناعي ، يمكن أن يساعد تطوير التكنولوجيا في ضمان استخدام الذكاء الاصطناعي بطريقة عادلة ومسؤولة.

ومع ذلك ، يمكن أن يكون للتطور التكنولوجي أيضًا تأثير معاكس. على سبيل المثال ، إذا طورت شركات التكنولوجيا خوارزميات ملكية ليست مفتوحة للتدقيق العام ، فقد يزيد ذلك من صعوبة فهم كيفية عمل هذه الخوارزميات وتحديد أي تحيزات أو مخاطر محتملة. يتطلب التأكد من أن الذكاء الاصطناعي يعود بالفائدة على المجتمع ككل بدلاً من قلة مختارة مستوى عالٍ من التعاون.

يمكن للباحثين وواضعي السياسات وعلماء البيانات وضع اللوائح والمعايير التي تحقق التوازن الصحيح بين الانفتاح والخصوصية والأمن دون خنق الابتكار. يمكن لهذه اللوائح أن تخلق أطرًا تشجع على تبادل المعرفة مع معالجة المخاطر المحتملة وتحديد التوقعات للشفافية وإمكانية التفسير في الأنظمة الحرجة.

يجب على جميع الأطراف ذات الصلة بتطوير ونشر الذكاء الاصطناعي إعطاء الأولوية للشفافية من خلال توثيق عمليات صنع القرار الخاصة بهم ، وإتاحة كود المصدر ، وتبني الشفافية كمبدأ أساسي في تطوير نظام الذكاء الاصطناعي. يتيح ذلك للجميع الفرصة للعب دور حيوي في استكشاف الأساليب لجعل خوارزميات الذكاء الاصطناعي أكثر قابلية للتفسير وتطوير التقنيات التي تسهل فهم النماذج المعقدة وتفسيرها.

أخيرًا ، تعد المشاركة العامة أمرًا بالغ الأهمية في هذه العملية. من خلال زيادة الوعي وتعزيز المناقشات العامة حول شفافية الذكاء الاصطناعي ، يمكننا ضمان انعكاس القيم المجتمعية في تطوير ونشر أنظمة الذكاء الاصطناعي.

خلاصة

مع اندماج الذكاء الاصطناعي بشكل متزايد في جوانب مختلفة من حياتنا ، أصبحت شفافية الذكاء الاصطناعي واستخدام النماذج مفتوحة المصدر اعتبارات حاسمة. لا يضمن تبني الذكاء الاصطناعي الخاضع للمعاينة العدالة والمساءلة فحسب ، بل يحفز أيضًا الابتكار ، ويمنع تركيز القوة ، ويعزز الوصول العادل إلى تطورات الذكاء الاصطناعي.

من خلال إعطاء الأولوية للشفافية ، وتمكين التدقيق في نماذج الذكاء الاصطناعي ، وتعزيز التعاون ، يمكننا بشكل جماعي تشكيل مستقبل الذكاء الاصطناعي الذي يفيد الجميع مع معالجة التحديات الأخلاقية والاجتماعية والتقنية المرتبطة بهذه التكنولوجيا التحويلية.

ليران هسون هو الشريك المؤسس والرئيس التنفيذي لشركة Aporia، منصة التحكم الرائدة في الذكاء الاصطناعي، والتي تثق بها شركات Fortune 500 وقادة الصناعة في جميع أنحاء العالم لضمان الثقة في GenAI. كما تم الاعتراف بأبوريا كرائدة في مجال التكنولوجيا من قبل المنتدى الاقتصادي العالمي. قبل تأسيس Aporia، كان ليران مهندس تعلم الآلة في شركة Adallom (التي استحوذت عليها شركة Microsoft)، وبعد ذلك أصبح مستثمرًا في Vertex Ventures. أسس ليران شركة Aporia بعد أن رأى بشكل مباشر تأثيرات الذكاء الاصطناعي بدون حواجز الحماية. في عام 2022، أطلقت مجلة فوربس على شركة أبوريا لقب "الشركة التالية التي تبلغ قيمتها المليار دولار"